查看原文
其他

基于YOLOv5的手势识别系统(含手势识别数据集+训练代码)

PKing666 AI吃大瓜 2022-09-26

 这是博文《基于YOLOv5的手势识别系统(含手势识别数据集+训练代码)》项目代码


1.项目介绍

    手势作为一种肢体语言,在人类交流中的使用起着重要作用。一个简单的手势蕴涵着丰富的信息,正因为如此,人与人可以之间通过手势来传达大量的信息,实现高速的通信。将手势运用于计算机,能够很好地改善人机交互的效率。



手势识别(HGR)作为人机交互的一部分,在汽车领域、家庭自动化系统、各种视频/流媒体平台等领域具有广泛的实际应用。本篇博客,将基于YOLOv5搭建一个手势识别目标检测系统,支持one,two,ok等18种常见的通用手势动作识别,目前基于多目标检测的手势识别方法mAP_0.5=0.99569,mAP_0.5:0.95=0.87605,基本满足业务的性能需求

Demo视频效果:

如果想进一步提高模型的性能,可以尝试:

  1. 增加样本数据:原始数据集,基本上都是欧美白色人的图片数据,缺乏亚洲人脸数据集,建议根据自己的业务场景,采集相关数据,提高模型泛化能力

  2. 使用参数量更大的模型:本教程使用的YOLOv5s,其参数量才7.2M,而YOLOv5x的参数量有86.7M,理论上其精度更高,但推理速度也较慢。

  3. 尝试不同数据增强的组合进行训练


整套项目源码内容包含Light-HaGRID数据集 + YOLOv5训练代码和测试代码

(1)Light-HaGRID数据集

  1. 提供手势动作识别数据集,共18个手势类别,每个类别约含有7000张图片,总共123731张图片(12W+)

  2. 提供所有图片的json标注格式文件,即原始HaGRID数据集的标注格式

  3. 提供所有图片的XML标注格式文件,即转换为VOC数据集的格式

  4. 提供所有手势区域的图片,每个标注框的手部区域都裁剪下来,并保存在Classification文件夹下

  5. 可用于手势目标检测模型训练

  6. 可用于手势分类识别模型训练


(2)YOLOv5训练代码和测试代码

  1. 整套YOLOv5项目工程的训练代码和测试代码

  2. 根据本篇博文说明,简单配置即可开始训练



2.详细说明

详细说明,请查看原文《基于YOLOv5的手势识别系统(含手势识别数据集+训练代码)


3.资源下载

    敬请网友尊重原创成果,请勿随意转发和倒卖资源!!!!!谢谢合作;

    关于项目的任何问题,均可在博客评论留言~



    下面是项目下载地址:

《基于YOLOv5的手势识别系统(含手势识别数据集+训练代码)》的项目源码

【源码下载】 

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存